Discussion:Singularité technologique

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Une page de Wikipédia, l'encyclopédie libre.
Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons


"Exponentiel" : non, en aucun cas[modifier le code]

L'adjectif exponentiel est utilisé à plusieurs reprises dans l'article. Il y a là un abus de langage : avec une croissance exponentielle de quoi que ce soit, on ne peut jamais observer de singularité en un temps fini (on ne rencontre d'ailleurs pas de croissances exponentielles à long terme, mais simplement des croissances de type courbe logistique (en S) comme cellle du taux d'équipement des ménages jusqu'à stabilisation, ou des croissances du style courbe en cloche (croissance, puis déclin). Les deux commencent d'ailleurs, c'est vrai, de manière exponentielle, avant de buter sur des limites dynamiques (courbe en S) ou statiques (courbe en cloche).

La singularité constitue un exemple de ce qui se passerait si une croissance était plus rapide qu'exponentielle. C'est le cas en particulier pour une croissance de type hyperbolique, où chaque invention serait développée deux fois plus vite que la précédente : une telle série attent son point fixe en un temps fini, alors qu'une exponentielle n'a justement pas de point fixe.

Il serait bon de marquer la différence dans l'article, sans quoi on passe totalement à côté de l'idée même de singularité. 81.65.26.186 6 mars 2006 à 12:09 (CET)[répondre]

Traduction de en : attention à ne pas écraser d'information[modifier le code]

Cet article est en cours de traduction depuis w:en:Technological singularity : attention à ne pas, au cours du processus de traduction, effacer des informations présentes dans l'article francophone et qui ne se trouvent pas encore dans son équivalent anglophone ! 81.65.26.186 14 mars 2006 à 22:44 (CET)[répondre]

Légende du schéma ?[modifier le code]

Bonjour,

Il serait utile, voire nécessaire d'ajouter la légende du schéma. Yann 26 novembre 2006 à 14:29 (CET)[répondre]

Canular ?[modifier le code]

Bonjour,

Personne d'autre n'a l'impression que cette idée n'est qu'un vaste canular ? Le site de Kurzweil ne montre presque que des articles de lui-même. Aucune critique, pas de références socio-économiques, etc., ça ressemble plus à une grosse supercherie pour se faire mousser qu'à autre chose. Yann 26 novembre 2006 à 14:12 (CET)[répondre]

Je n'ai pas cette impression. Le jeu singularity, en python, permet d'appréhender la chose par le petit côté.

Brevets logiciels[modifier le code]

Je n'ose pas supprimer ce paragraphe, mais il n'a rien à faire dans cet article. Ca a tout simplement rien à voir avec le sujet, et n'est même pas notable dans une optique aussi "grandiose". De plus, c'est pas des malheureux brevets logiciels qui vont empêcher toute innovation ou la "ralentir d'un ordre de grandeur ou même davantage" (avant de me faire agresser, je précise que je suis contre ces brevets). L'auteur peut-il supprimer le paragraphe ? --Smeuuh 5 avril 2007 à 23:14 (CEST)[répondre]

Je suis d'accord... ---GwendalSimon 8 mai 2007 à 23:54 (CEST)


Moi aussi. Et surtout je ne comprends pas bien ce que fait Linux dans cette liste de brevets à probleme. Comment un systeme libre et ouvert peut-il être un frein au progres ? --Bakalex92 20 juillet 2007 à 15:23 (CEST)[répondre]

Science fiction?[modifier le code]

Non, la singularité technologique n'est pas une notion de science fiction. Les principaux auteurs ayant forgé cette notion ne sont pas des auteurs de science fiction. Il s'agit plutôt de futurologues ou d'ingénieurs spéculant sur le progrès technologique. C'est en particulier le cas de Kurzweil, qui n'a pas écris à ce sujet un roman de SF, mais un essai entre philo et prospective. Il s'agit d'une notion de futurologie.

Pour éviter tout malentendu, je ne dis pas ici que cette notion est scientifiquement valide. Au contraire, je crois que c'est une absurdité complète. Mais écrire que c'est une notion de science fiction, cela signifie que c'est une notion développée par ce courant de la littérature qu'est la science fiction. Il ne faut pas confondre science fiction courant littéraire, et "science fiction" l'expression populaire pour dire que c'est un peu tiré par les cheveux et pas très sérieux. Et on ne peut pas catégoriser un sujet avec une expression populaire.--EL - 11 août 2007 à 19:34 (CEST)[répondre]

Arguments convaincants[modifier le code]

Pourquoi dire que c'est une absurdité complète, alors que les arguments sont je trouve convaincants : pourquoi l'IA ne serait-elle pas capable de s'auto-améliorer passé un point de singularité ?

On ne le passe pas.
Si effectivement, temps nécessaire pour acquérir un "step" de connaissance est deux fois plus rapide à chaque étape, le savoir devient INFINI (cad ultime, absolu, total) AVANT d'atteindre le fameux point.
Supposons qu'on sache N aujourd'hui.
Pour passer à N+1, il faut P ans.
Pour passer à N+2, il faut 1/2 P ans supplémentaires (on est à 1,5 P)
Pour passer à N+3, il faut 1/4 P ans supplémentaires (on est à 1,75 P)
Pour passer à N+4, il faut 1/8 P ans supplémentaires (on est à 1,875 P)
...
Comme la somme des 1/k^2 ne peut dépasser 2, on en déduit, qu'on en sera à l'infini avant 2 P ans.
Le tout est de trouver P (si c'est 100 milliards d'années, on est bien avancé), de voir si le modèle est "réaliste" (à chaque étape, acquiert-on vraiment la même quantité de "nouveau savoir" 2 fois plus vite que le temps qu'on a mis pour acquérir la précédente ?) et de voir s'il n'y a pas de limite au bout de laquelle de nouveaux mécanismes viennent contredire le modèle (la capacité de stockage d'information sera toujours limitée, ne fut-ce que le nombre d'atomes du système solaire - donc, déjà pour les "grandes quantités de savoir, le modèle n'est plus bon; on peut comparer aussi au modèle de Newton est vrai mais qui se plante quand la vitesse est éloignée de la vitesse de la lumière). Ce qu'il faut voir aussi, c'est que le modèle proposé reste purement théorique même si "on peut admettre" que l'apprentissage de nouveau savoir ce fait de plus en plus rapidement...
Cette théorie reste malgré très fun (dans le sens que si c'est bien ainsi, la "race" humaine n'est qu'une bien petite étape dans l'évolution...)
Struma (d) 9 juin 2008 à 12:56 (CEST)[répondre]

divergence/convergence[modifier le code]

J'ai retiré la parenthèse qui apportait des informations fausses. Comme diverge, il faut un nombre fini de termes pour atteindre n'importe quel nombre choisi à l'avance. Notamment 2 qui est dépassé dès le 4e terme (1+1/2+1/3+1/4 =2,083) Meodudlye (d) 8 juin 2008 à 09:39 (CEST)[répondre]

Sauf qu'on parlait de la suite qui converge vers 2. — mro [d] 8 juin 2008 à 09:50 (CEST)[répondre]
Oui, j'avais lu trop vite. ET j'ai annulé mon annulation. Meodudlye (d) 8 juin 2008 à 09:52 (CEST)[répondre]

=/= Est-ce que mon livre n'est pas sérieux ? ==/

Quelqu'un à retiré mon livre "L'esprit, L'IA et la Singularité" de la section "bibliographie" de cette page. Ce livre est en plein coeur du sujet, il est intéressant, factuel et non polémique, il a fait l'objet de critiques élogieuses par des professionnels, et je ne vois pas en quoi l'ajout de ce livre dans la dite section contredirait un principe de wikipedia. Donc je le remet encore une fois...

(ajout au 9/1/08) bon il s'avère que le lien pointait vers mon site perso et que c'est interdit. je m'en excuse, j'ignorais cette règle. J'ai donc remplacé le lien par un lien vers le site de la revue "automate inteligents", qui m'a fait l'honneur de critiquer mon livre. Cette fois ça devrait "passer" ! (si vous n'êtes pas d'accord, merci de dire au moins pourquoi ici).

Énergie ?[modifier le code]

Le concept de singularité ne tient pas compte des besoins et des ressources disponibles en énergie. Il postule soit des ressources infinies, soit « oublie » de compter l'accroissement des besoins par des technologies plus avancées. Accessoirement, il ne tient pas compte que la miniaturisation des composants électroniques a des limites physiques insurmontables.

En conséquence, cet article ne respecte pas un point de vue neutre. Par comparaison, l'article Loi de Moore est beaucoup plus nuancé. Le doublement du nombre de transistors ne serait plus possible vers 2015, bien avant la singularité prédite pour les années 2030s. Yann (d) 22 janvier 2009 à 16:48 (CET)[répondre]

Pour l'instant ça marche. Même en 2021 ! -- (💬) 6 novembre 2021 à 20:01 (CET)[répondre]

Mot manquant[modifier le code]

Il semble qu'il manque un mot dans la phrase : "Vinge s’interroge sur les raisons cette fin..", entre "raisons" et "cette". "raisons de cette", "raisons qui mènent à cette" ? LuneRouge (d) 29 mars 2009 à 19:09 (CEST)[répondre]

Une prédiction qui tient la route[modifier le code]

Il tiens tout à fait compte des ressources en énergie, c'est justement l'avènement des nanotechnologies qui règle le problème de l'énergie pour la recherche et pour tout le reste d'ailleurs.

Quand à La loi le Maure, même Ray Kurzweil dit qu'elle arrivera dans quelques années à la fin, c'est même un argument en faveur de sa thèse, selon lui cela devrait provoquer une pression énorme sur la recherhe dans ce domaine pour le développement d'autres technologie comme les nano-ordinateur ou des ordinateurs quantique.

Les tubes a vides aussi avait une limite physique c'est même cette limite qui à donnée naissance la technologie actuelle beaucoup plus performante.

Ray Kurzweil n'a jamais niez les limites physique de la miniaturisation, qui sont les limites atomiques, pas besoin de casser ces limites pour avoir la puissance de calcul nessecaire pour créer une intelligence artificiel, à vrai dire même en gardant la même tchenologie de processeur si la loi de Maure subsiste encore une dizaine d'année la capacité des ordinateurs devrait être amplement suffisante pour simuler le cerveau humain.

I.A donnant naissance aux nanotechhologies ou les nanostchnologies donnant naissance à l'I.A.

Quand au site web de Kurzweil il est truffé de liens d'articles scientifiques. http://www.kurzweilai.net

Il se trompe peut être mais dire que c'est de la science fiction que ça ne tiens pas la route ou un hoax c'est à mon avis exagéré.

Taille du logiciel ?[modifier le code]

Dans http://www.automatesintelligents.com/labo/2004/sep/singularity.html, l'auteur indique à juste titre que la puissance de calcul brute est suffisante pour amorcer la singularité, qu'il ne manque qu'un "logiciel", et que la Loi de Moore fera le reste. Il donne un ordre de grandeur de ce logiciel, à mon avis beaucoup trop petit : "Si nous avions une machine à voyager dans le temps, 100 Kilo-octets d’informations en provenance de l’avenir pourrait spécifier une protéine qui construirait un dispositif qui nous donnerait la nanotechnologie du jour au lendemain. 100 Ko pourrait contenir le code de l’IA germe. Depuis les années 90, la Singularité n’est plus qu’un problème de logiciel. Et le logiciel est de l’information, cette chose magique qui change à des vitesses de grandeur arbitraire. Du point de vue technologique, la Singularité pourrait se produire demain. Une avancée décisive, juste une idée majeure, en ingénierie des protéines, dans la manipulation atomique ou l’intelligence artificielle, une journée exceptionnelle chez Webmind ou Zyvex, et la porte qui donne sur la Singularité s’ouvre grand." Quelle est la taille réelle de ce logiciel, hors protéine ? S'il est assez petit, par rapport à la mémoire et à la puissance de calcul disponible, il "suffirait" de générer tous les logiciels possibles de cette taille, et de les tester tous. Une amorce serait faite, et ensuite, la machine pourrait corriger son propre code, le recompiler... domsau2 (d) 24 janvier 2011 à 02:34 (CET)[répondre]

imprécision à la traduction[modifier le code]

on peut lire "Les caméras, télescopes, IRMs ( appareil principalement médical ) et séquenceurs ADN ont une précision et rapidité qui double tous les dix-huit mois18."

la référence 18 évoque le doublement des volumes d'information ('amount of Data') Si le volume des données double, la précision des mesures(tant la résolution spatiale que de codage en intensité) et leur rapidité (en terme de résolution temporelle comme de débit) ne double pas tous les dix huit mois.

Incohérence dans l'introduction[modifier le code]

Dernière phrase de l'introduction : "Plusieurs futurologues et transhumanistes l’attendent pour la troisième décennie du xxie siècle.".

"troisième décennie" redirige vers l'article des années 2030, or la troisième décennie correspond à 2020-2029.

1er graphique à réviser[modifier le code]

Le graphique en haut à gauche ne veut plus dire grand chose, étant donné qu'on n'a pas pu simuler un cerveau humain pour l'instant et qu'on s'approche pas du tout, mais du tout du "mind uploading" vers 2025... Quelqu'un sait comment faire ça ? -- (💬) 6 novembre 2021 à 20:03 (CET)[répondre]

Oui, et puis de toutes façons l'autre image qui est dans la section "explosion d'intelligence" est plus complète. J'ai supprimé l'image dont vous parlez, et réagencé les autres. J'espère que ça vous va. Alenoach (discuter) 13 novembre 2023 à 21:50 (CET)[répondre]

Qualité de la traduction ?[modifier le code]

L'article me semble très mal écrit par endroits, pratiquement incompréhensible. Ne serait-ce pas un article traduit automatiquement, ou en tous cas très mal traduit ? Ne faudrait-il pas revoir, réécrire l'article ? 2A01:CB00:796:3C00:FD71:3318:8961:D21A (discuter) 26 avril 2023 à 08:53 (CEST)[répondre]